MenschenrechteAmnesty kritisiert digitale Technologien zur Migrationskontrolle

Im Umgang mit Menschen auf der Flucht setzen europäische Staaten und die USA immer mehr digitale Techniken ein. Die Entwicklung geht so schnell, dass Menschenrechte auf der Strecke bleiben.

Mauer über der eine EU-Fahne weht, links und rechts davon Überwaxchungskameras.
Grenzen werden mit immer mehr Technik überwacht. (Symbolbild) – Alle Rechte vorbehalten IMAGO / Pond5 Images

Amnesty International kritisiert in einem Bericht den zunehmenden Einsatz digitaler Technologien im Bereich Asyl und Migration. Das englischsprachige Papier mit dem Titel „Defending the Rights of Refugees and Migrants in the Digital Age“ betrachtet die Situation in der Europäischen Union sowie in Großbritannien und in den Vereinigten Staaten von Amerika.

Die Migrations- und Asylpolitik werde zunehmend von digitalen Technologien geprägt, heißt es in dem Bericht. Während Menschenrechtsorganisationen seit langem schwerwiegende Menschenrechtsverletzungen durch Regierungen bei der Abschreckung, Verhinderung, Zurückdrängung und Bestrafung von Menschen auf der Flucht dokumentierten, würden diese Praktiken nun vom Einsatz neuer digitaler Technologien überlagert, die von Privatunternehmen entwickelt würden.

Neue Bedrohung für Menschenrechte

Das habe neue Formen von öffentlich-privaten Partnerschaften und damit eine ganze Reihe von Menschenrechtsbedrohungen hervorgebracht, so der Bericht. Das Spektrum der Technologien reiche von elektronischer Überwachung, Satelliten und Drohnen bis hin zu Gesichtserkennung, „Lügendetektoren“ und Iris-Scanning. Der Bericht zeigt auch, wie europäische Staaten, darunter Deutschland, zunehmend Mobiltelefone von Asylsuchenden durchsuchen und dabei unverhältnismäßig deren Privatsphäre verletzen. Laut Amnesty International bestehe ein wachsender und dringender Bedarf, diese Technologien und ihre Auswirkungen zu untersuchen und zu verstehen.

So verstärkten diese Technologien Grenzregime und Diskriminierung aufgrund ethnischer Zugehörigkeit, nationaler Herkunft und Staatsbürgerschaft. Die eingesetzten „Technologien bergen die Gefahr, rassistische Vorurteile und Diskriminierung unter dem Deckmantel der Neutralität und Objektivität fortzusetzen und zu verschleiern, die in historischen und kolonialen Praktiken der rassistischen Ausgrenzung wurzeln.“

Amnesty: „Emotionserkennung verbieten“

Lena Rohrbach, Expertin für Menschenrechte im digitalen Zeitalter bei Amnesty International in Deutschland, sagt: „Die Bundesregierung muss sich dafür einsetzen, dass neue Technologien nicht zu weiteren Menschenrechtsverletzungen für Schutzsuchende führen.“ KI-basierte, angebliche „Emotionserkennung“ führe zu Diskriminierung und Fehlern und müsse verboten werden – in Deutschland und in der EU. Massenüberwachung verletze zudem die Privatsphäre, sei es pauschales Durchsuchen von Handys oder die massenhafte Überwachung der Bewegungen von Menschen, so die Menschenrechtlerin weiter.

Laut dem Bericht ist es auch ein Problem, dass sich die Technologie schneller entwickelt als die Sicherheitsvorkehrungen und die Aufsicht, die erforderlich seien, um einen ständig wachsenden Technologiesektor zur Verantwortung zu ziehen.

Amnesty fordert deswegen neben der Bekämpfung von systematischem Rassismus unter anderem Menschenrechtsfolgenabschätzungen und Datenschutzfolgenabschätzungen, bevor digitale Werkzeuge eingeführt werden. Zudem sollten Betroffene mehr Rechte bekommen, wenn es um ihre Daten geht.

8 Ergänzungen

  1. Es drängt sich einem das Gefühl auf das Menschenrechte und Demokratie überhaupt keine Rolle mehr spielen. Nicht mal mehr die geringste!

    1. „So verstärkten diese Technologien Grenzregime und Diskriminierung aufgrund ethnischer Zugehörigkeit, nationaler Herkunft und Staatsbürgerschaft.“

      Nur ist eine solche Diskrimierung (=Unterscheidung) an den Staatsgrenzen absolut zulaessig, es gibt kein Menschenrecht der freien Einreise oder Migration. Praktisch alle Staaten diskriminieren sogar viel groeber: eigene Staatsbuerger duerfen einreisen und alle anderen nur in dokumentierten Ausnahmefaellen. Fuer diese Ausnahmefaelle gibt es eine Vielzahl von Kriterien, und diese zu ueberpruefen ist natuerlich zulaessig.

      1. Naja, der Absatz, aus dem Ihr Zitat stammt, handelt aber von Handies von Asylsuchenden durchsuchen, nicht von der grünen Urwaldgrenze, oder Kurdistan u.ä., wo Minderheiten auf beiden Seiten leben, die lokal aber auch mal die Majorität sein können.

        Ich denke auch eher, dass wir wissen wollen, wo jemand herkommt, vor allem wenn wir eine Story glauben müssen (gemäß Gesetz). Da sind eben zwei Knackpunkte: 1. Ein System das keine Stories braucht. (don’t ask me how) 2. Die Methoden die wir nutzen verstehen, und Methoden, die unseren Grundwerten nicht entsprechen, sein lassen, oder bei partieller Anwendbarkeit mit Schulung und entsprechenden „Leitplanken“ versehen.

  2. „Emotionserkennung “ gehört verboten, und ich sage das nicht nur als eine der Personen, die am sogenannten „Resting-Bitch-Face“-Syndrom leiden. „Emotionserkennung“ ist nicht weniger als die Unterstellung von „emotionalen Absichten“ – und das kann fatale Konsqeuzen haben. Zum Beispiel beschießt die Polizei in Amerika regelmäßig Menschen tödlich mit Tasern, weil diese „zornig“ gewirkt haben sollen.

    1. „Emotionserkennung“ ist auf der Ebene von Phrenologie: gefaehrliche Pseudowissenschaft.

      Das ueber „Rassismus“ angreifen zu wollen, weil es bei nicht-normal-weissen idR noch schlechter „funktioniert“, geht schlicht am Punkt vorbei. Das ist immer gefaehrliche Pseudowissenschaft.

  3. Das europäische Unternehmen „Toloka“ soll Russland bei der Massenüberwachung der eigenen Bevölkerung unterstützt haben. Darüber berichtet das „ZDF“. So soll das niederländische Unternehmen mit einem Portal dabei geholfen haben, wichtige Daten für die russische Gesichtserkennungssoftware zu sammeln.
    https://www.rnd.de/politik/eu-unternehmen-tokola-soll-russland-bei-massenueberwachung-geholfen-haben-HY72DJXS5ZGURJK6ZXA64TPHPY.html
    https://www.zdf.de/nachrichten/politik/ausland/russland-ueberwachung-gesichtserkennung-eu-firma-toloka-100.html

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Bitte keine reinen Meinungsbeiträge! Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.